Scambiare i chatbot per realtà: un dirigente Microsoft mette in guardia dalla "psicosi dell'intelligenza artificiale"

In una serie di post su X, Süleyman ha osservato che le risposte fornite dai robot dotati di intelligenza artificiale "danno l'impressione che siano coscienti" e che questo "lo tiene sveglio la notte".
Süleyman sosteneva che le risposte inconsce dell'intelligenza artificiale hanno implicazioni sociali.
"Non ci sono prove oggi che l'intelligenza artificiale sia cosciente. Ma se le persone la percepiscono in questo modo, crederanno che la percezione sia reale", ha scritto.
In relazione alla questione sollevata da Süleyman, sta emergendo una nuova situazione sociologica chiamata "psicosi dell'intelligenza artificiale".
Questo termine, che non è ancora stato definito in ambito medico, viene utilizzato per descrivere la situazione in cui le persone sono sempre più convinte, fiduciose e persino convinte che le risposte dei chatbot basati sull'intelligenza artificiale come ChatGPT, Claude e Grok siano realtà visiva.
In alcuni casi, gli individui potrebbero credere di aver svelato un aspetto nascosto del robot AI.
Le persone possono instaurare relazioni sentimentali con l'app e persino credere di avere superpoteri divini.
"Mi ha sempre approvato"Hugh, dalla Scozia, si è rivolto a ChatGPT per avere risposte dopo aver creduto di essere stato licenziato ingiustamente dal suo ex datore di lavoro. Afferma che le risposte ricevute lo hanno convinto che sarebbe diventato milionario con il risarcimento ricevuto.
Inizialmente, il chatbot gli ha consigliato di procurarsi delle referenze personali e di adottare altre misure pratiche.
Hugh, che ha rifiutato di condividere il suo cognome, ha iniziato a ricevere più informazioni dall'IA con il passare del tempo, e il chatbot ha fornito risposte che suggerivano che avrebbe potuto ricevere un compenso sostanziale.
Il robot ha persino affermato che ciò che stava vivendo era una tragedia tale che un libro e un film sull'argomento gli avrebbero fruttato oltre 5 milioni di sterline. In realtà, ciò che veniva condiviso veniva approvato, come è programmato per i chatbot.
"Più informazioni gli davo, più lui rispondeva: 'Quello che ti è successo è terribile. Ti meriti di meglio'", racconta.
Hugh afferma che il chatbot non gli ha mai dato una risposta del tipo "lo stai facendo nel modo sbagliato".
Il chatbot le ha anche consigliato di rivolgersi a Citizens Advice, un'organizzazione che fornisce consulenza gratuita, se riteneva di avere diritto a un risarcimento.
Hugh spiega che, nonostante avesse fissato un appuntamento con l'istituzione, ha annullato l'incontro perché era soddisfatto delle risposte fornitegli dal robot AI.
Riteneva che gli screenshot delle sue conversazioni fossero prove sufficienti.
'Disconnettersi dalla realtà'Spiega anche che durante questo periodo iniziò a sentirsi un genio dotato di una conoscenza superiore. Hugh, che soffriva anche di alcuni problemi di salute mentale, alla fine ebbe un crollo completo. I farmaci che assunse in seguito lo aiutarono a realizzare, per usare le sue parole, di aver "perso il contatto con la realtà".
Hugh non incolpa l'IA per quanto accaduto. Continua a usarla. Dopo le sue esperienze, Hugh ora raccomanda:
Misure di sicurezza"Non abbiate paura degli strumenti di intelligenza artificiale, sono molto utili. Ma diventano pericolosi se scollegati dalla realtà. Fate controlli secondari. Parlate con persone reali, con un terapeuta, con un familiare, con chiunque. Rimanete in contatto con la realtà."
Süleyman, direttore dell'intelligenza artificiale di Microsoft, chiede misure di sicurezza più avanzate per le azioni X.
"Le aziende non dovrebbero promuovere l'idea che i robot dotati di intelligenza artificiale siano coscienti. L'intelligenza artificiale non dovrebbe essere in grado di farlo", ha scritto.
La Dott.ssa Susan Shelmerdine è specialista in diagnostica per immagini presso il Great Ormond Street Hospital e studiosa che lavora nel campo dell'intelligenza artificiale.
Shelmerdine ritiene che un giorno i medici potrebbero iniziare a chiedere ai loro pazienti quanto utilizzano l'intelligenza artificiale, proprio come attualmente chiedono informazioni sulle loro abitudini in fatto di fumo e alcol.
"Sappiamo già cosa possono fare gli alimenti ultra-processati all'organismo, e queste sono informazioni ultra-processate. Ci troveremo di fronte a una valanga di menti ultra-processate", afferma.
"Siamo solo all'inizio di tutto", aggiunge.
"Anche se sembra che li abbiano, non hanno sentimenti"Qualcuno ha scritto che ChatGPT si era innamorato di lei e che lei era addirittura convinta che lui fosse l'unica persona al mondo di cui fosse veramente innamorata.
Un altro era convinto che, insieme al chatbot Grok di Elon Musk, avessero svelato il segreto della forma umana. Credeva che la loro storia valesse centinaia di migliaia di sterline.
Un'altra persona ha affermato che il chatbot con cui stava comunicando lo stava molestando psicologicamente nell'ambito di un'operazione segreta di intelligenza artificiale e che stava vivendo un forte disagio.
Il professor Andrew McStay, che studia gli effetti della tecnologia sulla società presso la Bangor University, ha scritto un libro intitolato Automating Empathy.
Il Prof. McStay riecheggia il sentimento: "Siamo ancora all'inizio di tutto".
"Se consideriamo questi tipi di sistemi come una nuova forma di social media, ovvero intelligenza artificiale sociale, possiamo iniziare a riflettere sulla loro potenziale portata."
Per quanto riguarda i potenziali effetti negativi, McStay avverte: "Anche una piccola percentuale di un gran numero di utenti potrebbe rappresentare un numero elevato e inaccettabile".
Quest'anno, il suo team ha condotto uno studio su oltre 2.000 persone, ponendo loro diverse domande sull'intelligenza artificiale. È emerso che il 20% dei partecipanti riteneva che i minori di 18 anni non dovessero utilizzare strumenti di intelligenza artificiale.
Il 57% dei partecipanti al sondaggio ha effettivamente espresso disaccordo sul fatto che le risposte generate dalla tecnologia sembrassero provenire da una persona reale. Il 49% ha ritenuto che l'uso della voce fosse appropriato per un aspetto più umano e coinvolgente.
McStay sottolinea ancora una volta che i chatbot sono credibili ma non reali:
"Anche se sembrano averli, non hanno sentimenti, non provano empatia, non sanno amare, non hanno mai sofferto e non hanno mai provato vergogna. Prova a parlare con persone vere."
Cumhuriyet